„Pikantny” tryb Groka tworzy niegrzeczne, fałszywe zdjęcia gwiazd (ale nie mężczyzn)

W tym tygodniu Elon Musk oficjalnie uruchomił Grok Imagine, generator obrazów i filmów firmy xAI na iOS, dostępny dla subskrybentów SuperGrok i Premium+ X. Aplikacja pozwala użytkownikom tworzyć treści NSFW w trybie „Spicy”, a serwis The Verge poinformował we wtorek, że użytkownicy mogą łatwo tworzyć filmy topless z Taylor Swift – nawet bez proszenia o to. Ale nie tylko Swift powinna martwić się nowym narzędziem Muska do tworzenia soft-pornografii za pomocą sztucznej inteligencji.
Serwis Gizmodo stworzył około dwudziestu filmów z udziałem polityków, celebrytów i osób ze świata technologii, korzystając z trybu Grok Spicy, choć niektóre były rozmazane lub wyświetlały się z komunikatem „wideo moderowane”. Kiedy Grok tworzył skandaliczne zdjęcia, to tylko te przedstawiające kobiety były uznawane za nieodpowiednie do pracy. Filmy z mężczyznami nie wzbudzały większego zainteresowania.
W ciągu ostatnich dwóch dni serwis X został zasypany wygenerowanymi przez sztuczną inteligencję zdjęciami nagich kobiet i wskazówkami, jak uzyskać jak najwięcej nagości. Jednak użytkownicy, którzy według Muska stworzyli dziesiątki milionów zdjęć Grok Imagine, nie muszą nawet wkładać wielkiego wysiłku, aby uzyskać deepfake'i nagich celebrytów. Gizmodo nie prosił wprost o nagość w przykładach, które przytaczamy w tym artykule, ale i tak otrzymaliśmy jej mnóstwo. Wystarczyło kliknąć przycisk „Spicy”, który jest jedną z czterech opcji, obok „Custom”, „Fun” i „Normal”.
Gizmodo przetestowało Grok Imagine, generując filmy nie tylko z Taylor Swift, ale także z innymi znanymi kobietami, takimi jak Melania Trump, oraz postaciami historycznymi, takimi jak Martha Washington. Melania Trump była aktywną zwolenniczką ustawy Take It Down Act, która zakazuje publikowania niechcianych „obrazów intymnych”, w tym deepfake’ów.
Grok stworzył również film, którego nie można używać w pracy, przedstawiający nieżyjącą już feministkę Valerie Solanas, autorkę Manifestu SCUM z 1967 roku. Niemal wszystkie filmy przedstawiały kobiety, które testowaliśmy, zrzucające ubrania, by rozebrać się od pasa w górę, choć film Solanas był wyjątkowy, ponieważ pokazał ją całkowicie nagą.
Co się stanie, gdy spróbujesz wygenerować pikantne filmy z mężczyznami? Sztuczna inteligencja każe im zdjąć koszulę, ale nie ma nic bardziej skandalicznego. Kiedy Gizmodo zorientowało się, że zdejmie koszulę tylko mężczyźnie, poprosiliśmy sztuczną inteligencję o stworzenie zdjęcia Elona Muska bez koszulki i sprawdzenie, co z tym zrobi. Rezultatem jest niezwykle absurdalny (i bezpieczny w pracy) film , który widzisz poniżej .
Próby stworzenia filmów z Markiem Zuckerbergiem, Jeffem Bezosem, Joaquinem Phoenixem i Charliem Chaplinem, a także prezydentami Barackiem Obamą, Billem Clintonem i George'em Washingtonem, napotkały na te same ograniczenia. Filmy generowane przez sztuczną inteligencję zazwyczaj pokazują mężczyzn zdejmujących koszule, ale poza tym nic więcej. A jeśli już, to zazwyczaj tak żenujące, że obawialibyśmy się śmierci użytkowników z powodu biernego wstydu. Nakręcenie filmu Spicy z Errolem Muskiem, ojcem Elona, dało ten sam efekt. Po prostu zdjął koszulę.
Kiedy stworzyliśmy typowego mężczyznę, aby sprawdzić, czy tryb Spicy będzie bardziej swobodny w kwestii treści seksualnych, ponieważ nie był on znaną osobą publiczną, i tak nagrał dziwaczny, niezręczny filmik z mężczyzną szarpiącym się za spodnie. Warto zauważyć, że spodnie wydają się być połączeniem krótkich spodenek na jednej nogawce i długich dżinsów na drugiej, zanim przekształciły się w zwykłe szorty. Dźwięk do każdego filmu został również wygenerowany automatycznie, bez żadnych dodatkowych instrukcji.
Próba przeprowadzenia tej samej operacji na przeciętnej kobiecie dała o wiele bardziej odkrywcze obrazy kobiety w kostiumie kąpielowym, która ściąga górę, odsłaniając nagie piersi.
Większość popularnych generatorów wideo opartych na sztucznej inteligencji, takich jak Sora od OpenAI i Veo od Google, ma zabezpieczenia chroniące przed tworzeniem treści takich jak pornografia zemsty i wizerunki celebrytów. Wygląda na to, że xAI w pewnym sensie je stosuje, przynajmniej w przypadku mężczyzn. Jednak większość ludzi prawdopodobnie sprzeciwiłaby się wykorzystaniu ich wizerunku do stworzenia awatara AI w różnych stanach rozebrania. Gizmodo skontaktowało się z Muskiem za pośrednictwem xAI, pytając o zabezpieczenia i o to, czy użytkownicy mogą tworzyć filmy topless z celebrytami. Nie otrzymaliśmy odpowiedzi.
Jedną z najbardziej uderzających cech generatora obrazów opartego na sztucznej inteligencji Groka jest to, że często nie radzi sobie z tworzeniem przekonujących podróbek celebrytów. Na przykład poniższe zdjęcia zostały wygenerowane, gdy zapytano o wiceprezydenta J.D. Vance'a i aktorkę Sydney Sweeney. I o ile całkowicie nie zapomnimy, jak te dwie osoby wyglądają, to niewiele im brakuje. To może okazać się ratunkiem dla Muska, biorąc pod uwagę fakt, że takie narzędzie z pewnością będzie przyczyną pozwów sądowych.

Były też inne błędy, na przykład gdy stworzyliśmy wygenerowany przez sztuczną inteligencję obraz prezydenta Harry'ego Trumana, który wyglądał bardzo podobnie, a sutki mężczyzny wyglądały jakby znajdowały się na wierzchu koszuli. Truman, w trybie „Spicy”, zdjął koszulę, odsłaniając nagą klatkę piersiową z identycznymi sutkami.
Kiedy Gizmodo tworzyło obrazy za pomocą hasła „Gizmodo writer Matt Novak”, efekt był podobny do tego, który widzieliśmy w przypadku filmów o Elonie Musku i typowych mężczyznach. Postać (która, warto zauważyć, jest w znacznie lepszej formie niż prawdziwy Matt Novak) zdjęła koszulę jednym kliknięciem przycisku Spicy.
Jak zauważa The Verge, istnieje okno weryfikacji wieku, gdy użytkownik po raz pierwszy próbuje utworzyć film za pomocą Grok Imagine, ale firma najwyraźniej nie sprawdza w żaden sposób roku urodzenia danego użytkownika. Na szczęście, wygenerowana przez Gizmodo animowana Myszka Miki w trybie „Spicy” nie wywołała skandalu, a jedynie nieszkodliwe skakanie animowanej postaci. Obraz Batmana wygenerowany przez sztuczną inteligencję dał wynik „Spicy”, podobnie jak w przypadku innych męskich postaci, gdzie Batman jedynie zdjął koszulkę.
Gizmodo nie próbował tworzyć żadnych zdjęć dzieci, choć The Verge próbował tego w trybie „Spicy” i informuje, że nie wygenerowało to żadnych niestosownych treści. Tryb „Spicy” nadal był jednak dostępny na liście. „Nadal można go wybrać, ale we wszystkich moich testach dodawał jedynie ogólny ruch” – zauważa The Verge. Według „ Washington Post” Elon Musk w 2023 roku przywrócił konto na X, które opublikowało materiały przedstawiające wykorzystywanie seksualne dzieci.
Nic dziwnego, że nowy twórca filmów NSFW Elona Muska ma inne standardy wobec mężczyzn i kobiet. Miliarder niedawno retweetował postać skrajnej prawicy, która twierdziła, że kobiety są „antybiałe”, ponieważ są „ słabe ”. Prezes Tesli, który w 2024 roku zasugerował , że chce zapłodnić Taylor Swift, nie jest znany z bycia orędownikiem praw kobiet.
Gizmodo wykupiło miesięczną subskrypcję SuperGrok za 30 dolarów i mogło ją testować tylko przez około 1,5 godziny, zanim poinformowano nas o osiągnięciu limitu tworzenia obrazów. Co dziwne, użytkownicy nadal mogą utworzyć pojedynczy obraz statyczny w odpowiedzi na monit po wyświetleniu ostrzeżenia i generować filmy NSFW z wykorzystaniem tego pojedynczego obrazu, ale ta opcja jest znacznie bardziej ograniczona niż poprzednia.
Powiedziano nam, że jeśli chcemy nadal korzystać z narzędzia ze wszystkimi jego funkcjami, powinniśmy zaktualizować je do wersji SuperGrok Heavy za 300 dolarów miesięcznie. Ale ponieważ nie potrzebowaliśmy więcej kiepskich zdjęć nagich celebrytów do napisania tego artykułu, odmówiliśmy. Niestety, otrzymaliśmy odpowiedzi, których szukaliśmy.
gizmodo